13 research outputs found

    Recognition system for unconstrained handwritten numerals

    Get PDF
    In this paper, we present a recognition system of unconstrained handwritten numerals . We describe all essential stages to it s elaboration . We approach the first phase of all recognition system : the extraction of the primitives . A structure that use th e skeleton of the numeral is used to extract rapidly 55 binary primitives . We specify a method that allows to determine the transmitted information about the primitives on the problem of the recognition of unconstrained handwritten numerals . Information transmitted by each primitive providing a criterion allowing to generate a binary decision tree . This criterion is used to select in each nod e the best primitive . The obtained classifier does not use the totality of 55 binary primitives but solely those that have been retaine d during the phase of identification of the decision tree . We present an original reject criterion that allows to increase performances of the recognition system . Finally, We describe the database of American handwritting numerals that serves to test the classifier . We demonstrate the performance of our system with this database .Nous présentons dans cet article un système de reconnaissance de chiffres manuscrits hors lignes, en décrivant toutes les étapes essentielles à son élaboration. Nous abordons d'abord la première phase de tout système de reconnaissance: l'extraction de primitives. Une représentation structurée construite à partir du squelette du chiffre est utilisée pour extraire rapidement un jeu de 55 primitives binaires. Nous précisons ensuite une méthode qui permet de déterminer l'information transmise par une primitive sur le problème de la reconnaissance des chiffres manuscrits hors lignes. L'information transmise par chaque primitive fournit un critère permettant de générer un arbre de décision binaire de manière complètement automatique. Ce critère est utilisé pour sélectionner au niveau de chaque noeud de l'arbre la primitive la plus informative sur le problème de reconnaissance associé au noeud en cours de traitement. Le classifieur obtenu n'utilise pas la totalité des 55 primitives binaires mais uniquement celles qui ont été retenues durant la phase d'identification de l'arbre de décision. Nous présentons ensuite un critère de rejet original qui permet d'augmenter les performances du système de reconnaissance de manière significative. Nous décrivons finalement la base de données de chiffres manuscrits américains qui sert à tester le classifieur. Nous donnons les résultats obtenus

    Random Coefficient State Model. Approximated Densities Filtering

    Get PDF
    The Kalman Filtering applies to state models with noisy linear equations which describe the state evolution and with noisy linear equations of observations. This filtering recursively computes the a posteriori state law given the present and past observations. The approximated densities filtering allows ta process either nonlinear state equations or equations with non Gaussian noises. For a random dynamical coefficient, typical situation of models abrupt changes, this paper introduces bi-modal parameted laws of probability whichh are used to approach the a posteriori suite laws at any time by adapting parameters . These are recursively computed at each updating and prediction.Le filtrage de Bucy-Kalman s'applique au modèle d'état comprenant des équations linéaires bruitées, décrivant l'évolution de l'état et des équations linéaires bruitées d'observation . Ce filtrage consiste dans le cas gaussien, à calculer de façon récursive, la loi de probabilité, a posteriori, de l'état, au vu de l' observation actuelle et des observations passées . Le filtrage par densités approchées permet de traiter des équations d'état, non linéaires ou à bruits non Gaussiens . Pour un coefficient de rappel aléatoire, cas typique d'une situation de changements de modèles, l'article introduit une famille de lois de probabilité, paramétrées, bimodales servant, par ajustement des paramètres, à approcher les lois a posteriori de l'état aux divers instants . Les paramètres sont recalculés récursivement, lors des mises à jour et des prédictions

    Contribution of information measures in evidential knowledge modelling

    Get PDF
    Within the framework of pattern recognition, many methods of classification were develo ed. More recently, techniques using the ~empster-Shafer's theory tried to deal with the problem related to the management O P the uncertainîy and the data fusion. In this paper, we propose a classification method based on this theory. The main difficuliy of this method is the knowledge modelling. To solve this problem, several methods were proposed, in particular by A. Appriou 11, 21. ln order to respect the bayesian approach in the case where the a priori probabilities are perfectly known, we use this method to initialize a belief structure. Our contribution lies in the use of reliability factors for each information source according to each hypothesis. These coefficients are defined by a dissirnilarity measure between two approximations of unknown probability distributions. These are determined by histograms built by the use of information criteria. ~ hleea st relicible belief structure are attenuated. Then, we use the Dempster's rule of combination to aggregate the attenuated sources. ResuIts on synthetic data are given in order to illustrate the method.Dans le cadre de la reconnaissance de formes, plusieurs méthodes de classification ont été développées. Plus récemment, des méthodes utilisant la théorie de Dempster-Shafer ont été mises au point afin de gérer les problèmes liés à la fusion d'informations imparfaites. Nous proposons ici une méthode de discrimination fondée sur l'utilisation de structures de croyance. L'une des principales difficultés de la théorie de l'évidence réside dans la modélisation des connaissances. Afin de pallier ce problème, plusieurs méthodes de modélisation des connaissances à l'aide de fonctions de croyance ont vu le jour, dont celle proposée par A. Appriou [1, 2]. Afin de respecter l'inférence bayésienne dans le cas de la connaissance parfaite des probabilités a priori, nous utilisons cette méthode pour initialiser nos fonctions de croyance. Notre contribution réside dans l'utilisation de coefficients de fiabilité attribués à chaque source d'information selon chaque hypothèse afin de modéliser le plus précisément possible l'information disponible. Ces coefficients sont définis par l'intermédiaire d'une mesure de ressemblance entre des approximations de lois de probabilités a priori inconnues. Celles-ci sont déterminées par des histogrammes construits à l'aide de critères d'information. Les structures de croyance issues des sources les moins fiables sont alors affaiblies. Ensuite, les informations sont fusionnées à l'aide de l'opérateur de combinaison de Dempster. Des résultats sur des données synthétiques sont proposés afin d'illustrer la méthode

    Computation time estimation of NEC μPD7281 data flow graphs

    Get PDF
    The method we introduce here enables to estimate the computation time of a NEC itPD7281 data flow processor from written data flow computer programs . This method has the advantage of avoiding transcription into i.PD7281 machine language instruction and of simulating it afterwards in order to evaluate the execution time of the object program .Nous présentons une méthode permettant d'estimer le temps de calcul d'un processeur « data flow » NEC μPD7281 à partir de programmes écrits sous la forme de graphes de flot. Cette méthode présente l'avantage d'éviter à l'utilisateur de transcrire le graphe en langage assembleur et de le simuler ensuite afin d'en évaluer le temps d'exécution

    Information and combinaison: the conflicting relationships

    Get PDF
    Dans le cadre de la théorie de l'évidence ou théorie de Dempster-Shafer, la fusion de données est basée sur la construction d'une masse de croyance unique résultant de la combinaison de plusieurs fonctions de masse issues de sources d'information distinctes. Cette combinaison, appelée règle de combinaison de Dempster, ou somme orthogonale, possède différentes propriétés mathématiques intéressantes telle que la commutativité ou l'associativité. Cependant, cette combinaison, à cause de l'étape de normalisation, gère mal le conflit existant entre différentes sources d'information. La gestion du conflit n'est pas mineure, particulièrement lorsqu'il s'agit de fusionner de nombreuses sources d'information. En effet, le conflit a tendance à croître avec le nombre de sources d'information à fusionner. C'est pourquoi une stratégie de redistribution de ce conflit est indispensable. L'idée de cet article est de définir un formalisme permettant de décrire,une famille d'opérateurs de combinaison. Pour cela, nous proposons un cadre générique afin d'unifier plusieurs opérateurs. Nous présentons, au sein de ce cadre de travail, les opérateurs de combinaison classiques utilisés dans le cadre de la théorie de l'évidence. Nous proposons ensuite d'autres opérateurs permettant une redistribution moins arbitraire de la masse conflictuelle sur les propositions. Ces opérateurs seront testés et comparés aux opérateurs classiques sur des fonctions de croyance synthétiques et des données réelles

    Mélange de lois statistiques sphériquement invariantes

    No full text
    Les lois statistiques de processus centrés non gaussions mais sphériquement invariants se généralisent pour des processus sommes de processus sphériquement invariants. Ces nouvelles lois modélisent la réception sur n capteurs, de l'émission de sources indépendantes gaussiennes centrées ayant traversé un milieu qui évolue aléatoirement d'une expérience à l'autre. Chaque expérience fournit n mesures z1, z2, ..., zn, une par capteurs. De l'étude de la structure statistique, on déduit que la matrice de covariance des espérances conditionnelles E(Zi/Z1) des Z. par rapport à Z1 est au plus d'ordre s ! un test statistique simple résulte de cette propriété pour déduire le nombre s de sources dès que le nombre n de capteurs vérifie n s+1

    Modèle d'état à coefficient aléatoire: filtrage par densités approchées

    No full text
    Le filtrage de Bucy-Kalman s'applique au modèle d'état comprenant des équations linéaires bruitées, décrivant l'évolution de l'état et des équations linéaires bruitées d'observation . Ce filtrage consiste dans le cas gaussien, à calculer de façon récursive, la loi de probabilité, a posteriori, de l'état, au vu de l' observation actuelle et des observations passées . Le filtrage par densités approchées permet de traiter des équations d'état, non linéaires ou à bruits non Gaussiens. Pour un coefficient de rappel aléatoire, cas typique d'une situation de changements de modèles, l'article introduit une famille de lois de probabilité, paramétrées, bimodales servant, par ajustement des paramètres, à approcher les lois a posteriori de l'état aux divers instants . Les paramètres sont recalculés récursivement, lors des mises à jour et des prédictions
    corecore